- künstliche Intelligenz: Ein interdisziplinäres Forschungsgebiet
- künstliche Intelligenz: Ein interdisziplinäres ForschungsgebietIn den letzten Jahrzehnten hat die Computertechnik enorme Fortschritte gemacht, und zweifellos wird man Rechengeschwindigkeit, Speicherkapazität und logisches Design in den kommenden Jahrzehnten noch wesentlich weiter verbessern. Die Computer von heute werden dann vielleicht ebenso träge und primitiv wirken wie jetzt die Rechenmaschinen früherer Jahre. Das Entwicklungstempo ist fast schon erschreckend. Schon können Computer zahlreiche Aufgaben, die früher ausschließlich dem menschlichen Denken vorbehalten waren, schneller und exakter ausführen, als der Mensch es im Entferntesten vermag. Wir haben uns seit langem an Maschinen gewöhnt, die uns in ihren schieren Rechenleistungen in geradezu unvorstellbarem Maße überlegen sind.Das betrifft unser Selbstverständnis nicht besonders. Im Gegenteil, wir sind höchst einverstanden, Geräte zu haben, die für uns in wenigen tausendstel Sekunden eine komplizierte arithmetische Operation durchführen oder Tabellen mit hunderttausenden von Einträgen verwalten. Diese Errungenschaften finden uneingeschränkten Beifall. Aber die Gabe der Intelligenz ist bisher weitgehend ein menschliches Privileg, an dem zu rütteln uns gleichzeitig fasziniert und tiefes Unbehagen bereitet. Schließlich ist es diese Intelligenz, durch deren Anwendung wir die Grenzen unserer körperlichen Beschränktheit sprengen konnten, und die uns von unseren Mitgeschöpfen unterscheidet. Wenn uns eines Tages Maschinen in dieser einen wichtigen Fähigkeit, in der wir uns für unnachahmlich halten, übertreffen können, werden wir dann nicht diese einzigartige Überlegenheit an unsere eigenen Erzeugnisse verloren haben?Vieles ist immerhin jetzt schon möglich: Heutige Computer arbeiten, dank ihrer weltweiten Vernetzung, als komplexe automatische Steuerungssysteme für Flugzeuge, für interplanetare Sonden oder Marsroboter. Wieder andere Systeme analysieren die bestehenden Wetterverhältnisse, messen Wind und Luftdruck und vergleichen sie mit riesigen meteorologischen Falldatenbeständen. Daraus leiten sie die Vorhersage des Wetters über mehrere Tage mit großer Genauigkeit ab.Aufgrund ihrer Unempfindlichkeit gegenüber bestimmten Umwelteinflüssen können Roboter für Arbeiten eingesetzt werden, die ein hohes gesundheitliches Risiko bergen oder für den Menschen überhaupt nicht ausführbar sind, etwa Arbeiten in der Abwasserkanalisation oder für das Verlegen von Tiefseekabeln. Auch für Präzisionsarbeiten bei mechanischen Produktionsprozessen werden heute Roboter eingesetzt, die Werkstücke herstellen, deren Qualität bei manueller Fertigung durch den Menschen nicht erreicht werden kann. Andere Maschinen spielen gar — mit einer Kamera ausgestattet — selbstständig Klavierstücke vor.1997 hat der Computer »Deep Blue« erstmals den amtierenden Schachweltmeister Gary Kasparow besiegt, in einer Disziplin also, die seit ihrer Erfindung als eine der Königsdisziplinen des räsonierenden Menschen schlechthin gilt. Dieser Sieg gelang dem mit Hochleistungsprozessoren ausgestatteten System, weil es in der Lage war, ausreichend viele alternative Züge und ihre Konsequenzen im Hinblick auf die Spielweise des Schachweltmeisters zu bewerten — ein Triumph der enormen Rechenleistung des Systems.Und damit noch nicht genug: Die Computer dienen heute nicht mehr nur als Rechenautomaten, sondern vor allem auch als Kommunikationswerkzeuge. Wissensbasierte Werkzeuge, Softbots genannt, die mittels bestimmter Schlüssel aus weltweit vernetzten Bibliotheken und Archiven des Word Wide Web relevante Informationsbausteine herausfiltern, sind neue intelligente Dienstleistungen, die auf diesen Kommunikationstechniken aufbauen. Sie helfen dabei, aus der Datenflut des Internet zum richtigen Zeitpunkt wichtige und aktuelle Informationen auszuwählen, wozu die Informationen kategorisiert und hinsichtlich der individuellen Interessen des Benutzers erkannt und verarbeitet werden müssen.Diese Möglichkeiten sind, gemessen an dem, was der Mensch ohne Hilfsmittel auf diesen Gebieten zu leisten vermag, geradezu phänomenal. Kann man damit nun solchen Maschinen aber tatsächlich die Eigenschaft der Geistigkeit, der »künstlichen Intelligenz«, zuschreiben?Was bedeutet »künstliche Intelligenz«?Die Frage, ob man von einem mechanischen Apparat jemals sagen kann, er denke — vielleicht sogar, er habe Gefühle oder Geist —, ist nicht neu. Auch die damit verwandte Idee, die Natur des Geistes formal zu erforschen, ist kein Produkt unseres Jahrhunderts. Doch die Entwicklung der modernen Computertechnik hat ihr neuen Nachdruck, ja sogar Dringlichkeit, verliehen: Erst seit der Erfindung und Verbreitung des Digitalrechners Ende der 1940er-Jahre steht eine adäquate Technologie zur Verfügung, um die Herausforderung, die sich dahinter verbirgt, anzunehmen.Die Frage berührt zentrale Probleme der Philosophie. Was bedeutet es, zu denken oder zu fühlen? Was ist Geist? Was ist Seele? Bis zu welchem Grad ist der Geist funktionell abhängig von den materiellen Strukturen, mit denen er gemeinsam auftritt? Können Geist und Seele auch ganz unabhängig von solchen Strukturen existieren? Oder sind sie nichts anderes als das Funktionieren einer geeigneten materiellen Struktur? Ist es überhaupt notwendig, dass die erforderlichen Strukturen biologischer Natur sind, wie es etwa unser Gehirn ist, oder könnte Geist ebenso auch mit elektronischen Bauteilen zusammenhängen? Ist der Geist physikalischen Gesetzmäßigkeiten unterworfen?Die Betrachtung dieser Fragen gehört zum Kern der Aufgabenstellung der Forschungsdiziplin der künstlichen Intelligenz, kurz KI. Von ihr erwartet man, dass sie die Antworten finden oder zumindest die Richtung weisen werde, in der man die Antworten suchen muss. Die Bezeichnung »künstliche Intelligenz« ist historisch zu verstehen: Zunächst im Englischen als »Artificial Intelligence« geprägt, ist sie als wörtliche, aber nicht ganz sinngemäße Übersetzung entstanden und gibt Anlass zu dem Missverständnis, die Disziplin würde eine Definition von »Intelligenz« liefern oder hätte gar zur Aufgabe, einen in Computertermini darstellbaren Intelligenzbegriff zu entwickeln. Die KI befasst sich vielmehr mit den Wahrnehmungsleistungen des Menschen, indem sie sie als informationsverarbeitende Prozesse analysiert, dies mit dem Ziel, sie dann anschließend auf einem Computer nachzubilden. Dieses Forschungsprogramm lässt sich mit den Worten des KI-Forschers Patrick H. Winston so zusammenfassen, dass die »künstliche Intelligenz die Untersuchung von Berechnungsverfahren ist, die es ermöglichen, wahrzunehmen, zu schlussfolgern und zu handeln«.Die Strukturierung des Forschungsgebiets KI ist dabei eher durch seine historische Entwicklung geprägt, als dass es auf einem Fundament theoretischer Methoden basieren würde.Im Vordergrund des Interesses stehen die drei grundlegenden kognitiven Fähigkeiten des Menschen: Wahrnehmen, Verstehen und Lernen. Die Repräsentation von Wissen und seine Anwendung spielt die zentrale Rolle in allen drei Richtungen.Wahrnehmen meint im Sinne der künstlichen Intelligenz die Übersetzung von Sinneseindrücken, etwa Bildern oder Sprache, in eine Form von Information, die der Computer verarbeiten kann. Dazu werden Verfahren etwa der Bildanalyse, der Gestenerkennung oder der akustischen Spracherkennung entwickelt. Die Teilgebiete der KI, die sich mit dem Verstehen befassen, entwickeln Modelle und Methoden zur Problemlösung, zum Schlussfolgern oder zum automatischen Beweisen. Auch das maschinelle Lernen ist durch Verstehensmodelle geprägt, die heute überwiegend auf der Grundlage der Simulation gehirnähnlicher Strukturen — der künstlichen neuronalen Netze — basieren. Von dem Vergleich zwischen dem künstlichen neuronalen Netz und den menschlichen Kognitionsleistungen erhofft man sich wichtige Einsichten in die Funktionsweise des Gehirns.Ein anwendungsbezogener Schwerpunkt der KI ist die Roboterforschung; sie dient vorwiegend dem praktischen Bedarf der Industrie an mechanischen Geräten, die »intelligente« Tätigkeiten ausführen können — das heißt, so vielseitige und komplizierte, dass früher der Mensch gelegentlich eingreifen oder sie komplett steuern musste —, und zwar außerordentlich schnell und zuverlässig oder aber unter ungünstigen, für den Menschen lebensgefährlichen Bedingungen. Von besonderem kommerziellem sowie allgemeinem Interesse ist auch die Entwicklung von Expertensystemen; damit will man das Grundwissen eines ganzen Berufs — Medizin, Jura und so weiter — in einem Programmpaket kodieren! Hier deutet sich bereits an, dass die Frage, ob der Computer echte Intelligenz zeigt (oder simuliert), beträchtliche soziale Auswirkungen hat.Das Forschungsgebiet der KI ist also, wie wir sehen, seiner Natur gemäß durch ein hohes Maß an Interdisziplinarität geprägt. So unterschiedliche Gebiete wie die Kognitionswissenschaften, Neurophysiologie, Informatik, Robotik, Sprachwissenschaften und Philosophie, die sich von der KI Beiträge zur Klärung des Begriffs Geist erhofft, haben zur Entwicklung der KI beigetragen und ihrerseits wieder von deren Erkenntnissen profitiert.Von der klassischen Informatik unterscheidet sich die künstliche Intelligenz durch die Betonung von Wahrnehmung, Schlussfolgern und Handeln, und sie unterscheidet sich von der Psychologie durch die Betonung des Aspekts der Berechnung.Bei aller Anerkennung ist die KI auch eine umstrittene Wissenschaft. Ist es ihr tatsächlich bereits gelungen, den Geist des Menschen, seine Intelligenz und seine Gefühle, sein Wissen und seine Kreativität in Bytes und Chips umzusetzen, wie die Vertreter der starken KI-These meinen, oder ist hier nur eine Clique von Wissenschaftlern der Verführung des Gedankens erlegen, die äußeren Merkmale des Geistes mit dem menschlichen Geist selber zu verwechseln? Die Geschichte der künstlichen Intelligenz erzählt von dem Ringen um diese Frage.Die Geschichte der KIGeht man von der Auffassung aus, dass das, was wir Denken nennen, im Grunde eine Summe von Berechnungsprozessen ist, die prinzipiell auch außerhalb unseres Gehirns durchführbar sind, so sollte der Computer das geeignete Instrument sein, diese Modellvorstellung zu realisieren.Der erste theoretische Ansatz in diese Richtung hin zu einer berechenbaren Intelligenz stammt von dem bekannten englischen Mathematiker Alan Turing, der bereits Mitte der 1930er-Jahre die Begriffe »Berechenbarkeit« und »Algorithmus« klärte. Im Jahr 1950 veröffentlichte die philosophische Zeitschrift »Mind« seinen Artikel »Computing Machinery and Intelligence«, in dem er einen Test, den berühmten Turing-Test, vorschlägt. Dieses Imitationsspiel sollte belegen, dass eine Maschine prinzipiell intelligent ist, wenn ihre Handlungen von denen eines Menschen nicht mehr zu unterscheiden sind. Turing gelang mit seinem Ansatz die Einführung eines maschinellen, »operationalistischen« Inelligenzbegriffs, über dessen Sinn und Gültigkeit allerdings bis heute gestritten wird.Warren McCulloch, ein Neurophysiologe, betrachtete das Thema von einer ganz anderen Seite. Er betrachtete das Netzwerk neuronaler Nervenzellen im menschlichen Gehirn als eine hypothetische Turing-Maschine, die mit einem Computer verglichen werden kann. Seine bedeutenden Arbeiten zu diesem Thema haben die Entwicklung der künstlichen Intelligenz auf dem Gebiet künstlicher neuronaler Netze beeinflusst. Die entschiedene Kritik seitens einiger Protagonisten der KI führte jedoch dazu, dass dieser Ansatz bis in die 1980er-Jahre hinein auf Eis gelegt wurde.Im Jahr 1948 veröffentlichte Norbert Wiener, Professor am Massachusetts Institute of Technology (MIT) in seinem Standardwerk »Kybernetik« — nach dem griechischen kybernetike (techne) (»Steuermannskunst«) — seine Theorien, die auf der These aufbauten, dass Intelligenz, sei es beim Menschen oder beim Tier, auf dem Prinzip der Rückkopplung beruht. Durch Rückkopplung, also durch Reaktion und Gegenreaktion, ist Wiener zufolge jedes Lebewesen in der Lage, sich seiner Umwelt anzupassen und seine Ziele zu erreichen. Daraus leitete er ab, dass eine intelligente Maschine in der Lage sein müsste, eigene Ziele zu verfolgen, indem sie sich den jeweiligen Gegebenheiten anpasst.Der entscheidende Entwicklungsschritt für die künstliche Intelligenz begann mit der Erfindung und der Verbreitung des Digitalrechners Ende der 1940er- und Anfang der 1950er-Jahre. Die neuen Möglichkeiten beflügelten die Pioniere des neuen Gebiets künstliche Intelligenz in ihrem Bestreben, Elektronengehirne zu konzipieren, mit deren Hilfe die Funktionsweise des menschlichen Gehirns erklärt und nachgeahmt werden sollte.Diese Hoffnung war der Leitgedanke einiger Wissenschaftler, die sich im Sommer 1956 in Hanover im US-Bundesstaat New Hampshire zu einer Konferenz zusammenfanden, um das »Dartmouth Summer Research Project on Artificial Intelligence« durchzuführen; damit gaben sie den Startschuss für das Forschungsgebiet KI.In der Folge dieser Tagung wurde an verschiedenen universitären und außeruniversitären Einrichtungen eine Reihe von Forschungsprojekten ins Leben gerufen, die das erarbeitete Programm realisieren sollten. Die Prognosen waren zunächst optimistisch, ja geradezu euphorisch: Die künstliche Intelligenz sollte wesentliche Probleme der Psychologie, Linguistik, Mathematik, Ingenieurwissenschaften und des Managements lösen. Diese Gründungsphase Ende der fünfziger und Anfang der 1960er-Jahre beschäftigte sich mit der Lösung einfacher Puzzlespiele, dem Beweisen von Sätzen der Logik und Geometrie, symbolischen mathematischen Operationen wie der unbestimmten Integration und Spielen wie Dame und Schach.In dieser ersten Periode — oft durch die Bezeichnung »Power-based Approach« (»auf Leistung beruhender Ansatz«) charakterisiert — ging es den Forschern hauptsächlich darum, die grundsätzliche technische Machbarkeit von künstlich intelligenten Systemen zu zeigen. Die Frage, ob künstliche Intelligenz überhaupt möglichsei, sollte einfach durch die Tat beantwortet werden, doch war man von einem echten Nachweis einer künstlichen Intelligenz weit entfernt. Es gab aber eine Reihe von beachtlichen Anfangserfolgen; so arbeitete Arthur Samuel mehrere Jahre lang an einem System zum Damespiel, das 1961 so perfekt wurde, dass es gegen seinen Erfinder regelmäßig gewann. Fast gleichzeitig — nämlich 1957 — gelang es Allen Newell und Herbert A. Simon mit dem Computersystem »Logic Theorist«, Beweise für eine Reihe von grundlegenden Theoremen der Aussagenlogik herzuleiten. Eines der ersten praktischen KI-Geräte war W. Grey Walters »Schildkröte« aus den frühen 1950er-Jahren. Sie bewegte sich, von ihrem Elektromotor angetrieben, über den Boden, und wenn ihre Batterien sich erschöpften, eilte sie zur nächsten Steckdose, schloss sich an und lud die Batterien auf. War sie wieder bei vollen Kräften, löste sie sich von der Steckdose und unternahm weitere Erkundungsreisen.Man erwartete in fast grenzenlosem Optimismus sehr viel von allgemeinen Problemlösungsverfahren, die letztlich den universellen Versuch darstellten, menschliches Problemlösungsverhalten auf den Computer zu übertragen. Doch an Alltagstauglichkeit war in keiner Weise zu denken, denn in den meisten Fällen versagte die entwickelte Technologie bereits bei einfachen Problemstellungen. Man konzentrierte sich daher auf bestimmte Teilgebiete und auf die Verbesserung bestehender Ansätze.Eine zweite Entwicklungsphase der KI ist gekennzeichnet durch die Einrichtung von Forschungsgruppen an führenden amerikanischen Universitäten. Man begann nun, sich von der Konstruktion der einfachen »intelligenten« Automaten zu lösen, um sich den zentralen Fragestellungen der künstlichen Intelligenz in stärker systematischer Weise zu nähern. So wurde etwa erstmals das Problem des menschlichen Umgangs mit der Sprache auf informatischer Basis untersucht, es wurden Ideen zum automatischen Lösen von mathematischen und anderen Problemen entwickelt, und man näherte sich der Aufgabe, dem Computer das Erkennen von Bildern und bewegten Szenen beizubringen. In dieser Phase, genauer 1972, entstand Terry Winograds Sprachprogramm »SHRDLU«, das sich sachkundig über eine Spielzeugwelt aus imaginären Klötzen verschiedener Form und Farbe unterhalten und sie in unterschiedlicher Reihenfolge und Anordnung aufeinander stellen kann. In dieser Zeit begann aber auch die massive Förderung der KI durch die »Advanced Research Projects Agency« (ARPA) des amerikanischen Verteidigungsministeriums.In den 1970er-Jahren lief eine dritte Phase in der Entwicklung der KI an, in der neben anderem der Entwurf von integrierten Robotersystemen und von Expertensystemen im Mittelpunkt stand, über die noch ausführlich zu sprechen sein wird. Im Gegensatz zum »Power-based Approach« traten vermehrt Systeme in den Vordergrund, die mit Wissen über den Problemkreis ausgestattet waren, für den sie eingesetzt werden sollten, was durch die Bezeichnung »Knowledge-based Approach« (»wissensbasiertes Vorgehen«) charakterisiert wird. Die Forschung erzielte dabei große Fortschritte in dem Versuch, das menschliche Wissen in solcher Form darzustellen, dass es auf den Computer übertragen werden kann. Auch erwachte das Interesse der Industrie an der künstlichen Intelligenz; dadurch wurden dann komplexe Anwendungen zunehmend wichtiger: So verschiedene Aufgabenbereiche wie Erkennung kontinuierlich gesprochener Sprache, Analyse und Synthese in der Chemie, medizinische Diagnostik und Therapie, Prospektion in der Mineralogie, Konfiguration und Fehleranalyse technischer Systeme traten in den Vordergrund. Edward Feigenbaum entwickelte beispielsweise das System Dendral, ein wissensbasiertes heuristisches System zur Analyse von Massenspektrographen, das im Bereich der Chemie Verwendung fand. John McDermott programmierte das erste kommerzielle Expertensystem »R1«, das die Firma DEC zur Kundenberatung einsetzte. Raj Reddy schließlich entwickelte 1976 mit einigen anderen das System Hearsay, ein für die gesamte KI ungeheuer einflussreiches System, das zum Verstehen gesprochener Sprache eingesetzt wurde. Gleichzeitig wurden auch in Europa, vor allem in Großbritannien und Deutschland, KI-Forschungsgruppen an verschiedenen Universitäten gegründet und zahlreiche Förderprogramme installiert. Es gab also einen regelrechten Boom der KI.Der Eintritt in die vierte Entwicklungsphase der KI erfolgte um 1980; sie war vor allem durch eine umfassende Mathematisierung des Gebiets, eine Präzisierung des Konzepts der Wissensverarbeitung und das Aufgreifen neuer Themen wie Situiertheit, verteilte KI und neuronale Netzwerke gekennzeichnet. Computer wie der »CM5« der Firma Thinking Machines erreichten zu dieser Zeit erstmals Rechenleistungen von bis zu 1012 Rechenoperationen pro Sekunde. Gleichzeitig erfuhr die Idee der künstlichen neuronalen Netze, im Prinzip schon in den 1950er-Jahren entwickelt, eine Renaissance, wodurch sich der KI nochmals neue Perspektiven öffneten.Bei der »Microelectronics and Computer Technology Corporation« in Austin, Texas versuchten Wissenschaftler um Doug Lenart, dem Computer »gesunden Menschenverstand« beizubringen, indem sie Objekte, Ereignisse sowie alltägliche Vorgänge und Zusammenhänge in eine Wissensbank eintrugen. Dies versetzt den Computer in die Lage, Texte und Bilder zu erfassen und zu verstehen. So gelang es, Bilder, deren Inhalt mit Worten beschrieben wurde, in der Datenbank zu identifizieren.Der erhoffte Durchbruch hinsichtlich des Einsatzes »intelligenter« Computersysteme blieb jedoch aus: Die mit Hochleistungsprozessoren ausgestatteten Rechner konnten lediglich für einige wenige Bereiche sinnvoll eingesetzt werden, wie etwa für die Auswertung komplexer Luftbilder oder für numerische Berechnungen. Schon Anfang der 1990er-Jahre ging die Ära der Supercomputer zu Ende, und eine ganze Reihe der mit großen Erwartungen gegründeten Computerfirmen musste ihre Produktion wieder einstellen.Auch der Bereich Robotik orientierte sich neu, insbesondere getrieben durch kleine leistungsfähige Chips, die auf der Basis künstlicher neuronaler Netze arbeiten. Vordenker wie Rodney Brooks vom Massachussetts Institute of Technology (MIT) konzentrierten sich auf die Entwicklung »intelligenter« Roboter, die sich in ihrer Umgebung selbstständig orientieren können und einfache Aufgaben ausführen. Feingliedrige metallische Insekten bewegen sich in schwierigem Terrain, überwinden Hindernisse, oder können sich aus der Rückenlage befreien. Das »Roboter-Baby« Cog, ebenfalls von Brooks entwickelt, lernt, mit zwei Kameraaugen ausgestattet, seine Umwelt zu begreifen und kann mittels Roboterarm und einer hochsensiblen künstlichen Hand mit Menschen kommunizieren.Gegenwärtig zeichnet sich im Gebiet »künstliche Intelligenz« ein Paradigmenwechsel ab; die KI bewegt sich von einer allgemeinen Betrachtung intelligenten Verhaltens hin zu einer Sicht von einfacheren Systemen mit speziellerem Aufgabenbereich, die in der Lage sind, mit ihrer Umwelt Kontakt aufzunehmen.Intelligenz und die Darstellung von WissenDas Sitzen zwischen den Stühlen aller Disziplinen bewirkt, dass sich die KI-Forschung einer metaphernreichen und auch stark anthropomorphen Sprache bedient, die mit einer Vielzahl von Spezialbegriffen operiert und eine Reihe umgangssprachlicher Begriffe mit einer verschobenen Bedeutung einsetzt. Die Bedeutung von einigen dieser Spezialbegriffe, die zum unverzichtbaren Rüstzeug der KI gehören, muss daher geklärt werden, bevor wir uns dem Kern des Gebiets nähern können; so wird uns beispielsweise eine Auseinandersetzung mit den Begriffen des Wissens und der Intelligenz nicht erspart bleiben.Was ist Wissen?Der Mensch ist mit der Fähigkeit ausgestattet, zu sehen, zu hören und zu fühlen, wir nehmen Reize und Signale aus unserer Umwelt auf. Diese akustischen, visuellen und anderen sensorischen Daten interpretieren wir und stellen sie in Zusammenhang mit uns bekannten Ereignissen, Personen oder Objekten oder vergleichen sie mit Regeln, Vorgängen oder uns vertrauten Mustern. Diesen Vorgang kann man so beschreiben, dass den aufgenommenen Daten mithilfe unseres Wissens ein Zweck zugeordnet wird. Damit verwandeln sich die Sinnesreize in Information, die wir nutzen können, um Entscheidungen zu treffen, Handlungen auszuführen oder einfach unseren Wissensvorrat zu erweitern. Was aber versteht man in unserem Zusammenhang eigentlich unter Wissen?Wenn wir geboren werden, besitzen wir bereits gewisse Grundvoraussetzungen der Intelligenz, die fest in unserem Erbgut verankert sind. Sie erlauben es uns, Informationen aus unserer Umwelt aufzunehmen und als Wissen zu speichern. Dieses Wissen ist grundlegend für unsere Anpassungsfähigkeit und bestimmt die Qualität, wie wir Probleme lösen. Es umfasst Erfahrungen und Kenntnisse über die Welt, die Dinge und Lebewesen, die sie beherbergt, sowie ihre Eigenschaften und Beziehungen zueinander, aber auch Spezialwissen über bestimmte Gebiete, das wir uns angeeignet haben. Wissen ermöglicht uns, Objekte zu unterscheiden, zu abstrahieren, zu assoziieren, schöpferisch kreativ zu sein oder Visionen und Ziele zu entwickeln. Wissen ist also, kurz gesagt, internalisierte Information. Wissen unterscheidet sich in vielfältiger Weise von Daten, deren maschinelle Verarbeitung noch immer das wichtigste Betätigungsfeld von Computern ist. Daten, wie etwa Zahlen, Buchstaben oder Zeichenketten, sind ohne Wissen nicht interpretierbar. Nimmt man als Beispiel das Wissen etwa über den Namen des ersten Bundeskanzlers der Bundesrepublik Deutschland, die Anzahl der Zwerge im Märchen Schneewittchen oder die Farben der portugiesischen Nationalflagge, so lassen sich diese durch einfache und strukturierte Daten wie: »Adenauer«, »7« oder »rot, gelb, grün« ausdrücken. Verwendet man jedoch dieselben Daten in einem anderen Kontext, so führt dies zu einer völlig anderen Interpretation. Spricht man über die Zahl 7 in Verbindung mit dem Alter einer Person oder einer Uhrzeit, so ist die Information, die man erhält, eine ganz andere. Auch die Assoziation, die man über ein konkretes Alter von 7 Jahren hat und oder die über die morgendliche Uhrzeit von 7 Uhr geweckt werden, bedeuten implizit die Herleitung von Wissen: »kindliches Alter« oder »meine Nichte ist genauso alt« und im anderen Fall »Frühstückszeit« oder »Ende der Nachtschicht«. Wissen geht also über die nackten Daten hinaus; man könnte es als die Fähigkeit bezeichnen, Daten richtig interpretieren zu können.Wissensrepräsentation und InferenzDer symbolverarbeitende Ansatz der KI betrachtet Intelligenz als die Fähigkeit, die Informationen über die Außenwelt, den menschlichen Erfahrungsschatz, zu formalisieren und dann mit diesem formalisierten Wissensvorrat als »Wissensbasis« zu arbeiten. Die Art und Weise, wie das Wissen formalisiert wird, bezeichnet man als »Wissensrepräsentation«. Auf der Grundlage dieser Hypothese hat sich die KI bereits in ihren Anfängen Mitte der 1950er-Jahre mit der Konzeption von Computersprachen beschäftigt, die es erlauben, Wissen formal zu beschreiben und mithilfe des Computers zu verarbeiten.Es wäre jedoch mehr oder minder unmöglich, das gesamte Erfahrungswissen des Menschen, oder auch nur einen begrenzten Ausschnitt daraus, in Form von Einzelfakten in der Wissensbasis eines KI-Systems abzuspeichern. Das ist auch gar nicht nötig. In der Regel wird für eine Anwendung eine Reihe von allgemein gültigen Zusammenhängen angegeben, die das System verwenden kann, um die weiteren Fakten eigenständig herzuleiten. Das System muss also in der Lage sein, selbstständig Schlussfolgerungen zu ziehen. Die Methode, mit der das System dies tut, wird als Inferenzmechanismus bezeichnet. In diesem Mechanismus sind die elementaren Problemlösungsschritte definiert, mit deren Hilfe es möglich ist, aus dem gegebenen Faktenwissen Schlussfolgerungen zu ziehen.»Klassische« KI-Systeme verfügen also über eine Wissensbasis, in der das Wissen mithilfe eines bestimmten Formalismus repräsentiert wird, sowie über einen Inferenzmechanismus, der den Formalismus, in der das Wissen notiert wurde, versteht.Diese Interpretationsfähigkeit unterscheidet KI-Systeme von konventionellen Datenverarbeitungsprogrammen, in denen Daten ausschließlich im operativen Sinne bearbeitet werden, beispielsweise um sie zu verdoppeln, um ihre Reihenfolge zu vertauschen oder um sie zu sortieren. Gegenüber der konventionellen Datenverarbeitung liegen bei wissensbasierten Systemen also keine fest kodierten Programme für die Lösung von Problemen vor. Der Inferenzmechanismus ist eher universeller Natur. Er nutzt Teile des Wissens in der Wissensbasis, um Lösungen für ein Problem herzuleiten.Die Form der Wissensrepräsentation und die Art des anwendbaren Inferenzmechanismus hängen eng zusammen, sie müssen zueinander passend gewählt werden. Im Prinzip könnte man eine konventionelle höhere Programmiersprache wie »FORTRAN«, »C« oder »Java« für die Repräsentation von Wissen verwenden, aber der Programmieraufwand wird unverhältnismäßig groß, da solche Sprachen ursprünglich einfach nicht dafür vorgesehen sind, wissensbasierte Systeme zu realisieren. Inzwischen gibt es jedoch einige speziell auf diese Aufgabe zugeschnittene Programmiersprachen wie etwa »LISP«, »Smalltalk« oder »PROLOG«; Letztere bringt den Computer dazu, nach einem in der Philosophie seit den alten Griechen wohl bekannten Schema vorzugehen: Er beginnt, logisch zu »denken«.Inferenz und LogikDie Fähigkeit, Wissen zu inferieren, ist ein zentraler Bestandteil menschlicher Problemlösung. Wir schließen aufgrund bestehender Sachverhalte, dass bestimmte plausible Ereignisse schon stattgefunden haben oder stellen Vermutungen an, indem wir Zusammenhänge von Ereignissen deuten.Es ist eines der Hauptanliegen der KI, solche Inferenztechniken zu untersuchen und formal zu beschreiben. Dazu bedient sie sich der Logik, deren Ausdrucksfähigkeit es erlaubt, das menschliche Denken zu abstrahieren und Wissensbasen zu konstruieren, aus deren Inhalten Schlussfolgerungen gezogen oder neue Sachverhalte hergeleitet werden können.Der »Modus Ponens« ist ein klassisches Beispiel für das deduktive Schließen, bei dem die abgeleiteten Schlüsse mit Sicherheit aus den Prämissen folgen.Das abduktive Schließen hingegen ist ein Beispiel für die induktive Schlussweise, bei der der Schluss nicht zwingend ist, sondern nur mit einer gewissen Wahrscheinlichkeit aus den Prämissen abgeleitet werden kann. Diese Schlussweise kommt oft in diagnostischen Systemen zum Einsatz, wo ein Symptom (»Ich bin müde«, »Mein Auto fährt nicht«) beobachtet und nach einer Ursache gesucht wird. Abduktionen sind also eher heuristischer Natur; sie bezeichnen Rückschlüsse auf plausible Ursachen bei Betrachtung der auftretenden Effekte, mit ihrer Hilfe können Prämissen gefunden werden, die die Symptome erklären.Besonders im Bereich des maschinellen Lernens spielt dies eine Rolle, wo aus einer großen Anzahl von Fakten heraus allgemeine Gesetzmäßigkeiten erkannt werden sollen.Diese Arten formal beschreibbarer Inferenz sind für die KI von elementarer Bedeutung, da sie dem Menschen vorbehaltene Denkprozesse nachvollziehbar machen.Prof. Dr. Andreas DengelWeiterführende Erläuterungen finden Sie auch unter:künstliche Intelligenz: Arbeits- und Anwendungsgebietekünstliche Intelligenz: Abschied von einer IllusionAhrweiler, Petra: Künstliche-Intelligenz-Forschung in Deutschland. Die Etablierung eines Hochtechnologie-Fachs. Münster u. a. 1995.Cruse, Holk u. a.: Die Entdeckung der Intelligenz oder können Ameisen denken? Intelligenz bei Tieren und Maschinen. München 1998.Dörner, Dietrich: Bauplan für eine Seele. Reinbek 1999.Einführung in die künstliche Intelligenz, herausgegeben von Günther Görz. Bonn u. a. 21995.Kurzweil, Raymond: Homo s@piens. Leben im 21. Jahrhundert - was bleibt vom Menschen? Aus dem Englischen. Köln 21999.Mainzer, Klaus: Gehirn, Computer, Komplexität. Berlin u. a. 1997.Probleme der künstlichen Intelligenz. Eine Grundlagendiskussion, herausgegeben von Stephen R. Graubard. Aus dem Englischen. Wien u. a. 1996.Strathern, Paul: Turing & der Computer. Aus dem Englischen. Frankfurt am Main 1998.Tanimoto, Steven L.: KI. Die Grundlagen. Aus dem Englischen. München u. a. 1990.Die Technik auf dem Weg zur Seele. Forschungen an der Schnittstelle Gehirn - Computer, herausgegeben von Christa Maar u. a. Reinbek 1996.Vester, Frederic: Neuland des Denkens. Vom technokratischen zum kybernetischen Zeitalter. München 101997.Zimmer, Dieter E.: Die Elektrifizierung der Sprache. Über Sprechen, Schreiben, Computer, Gehirne und Geist. Taschenbuchausgabe München 1997.
Universal-Lexikon. 2012.